AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
Discrete Tokenization:多模态大模型的关键基石,首个系统化综述发布

Discrete Tokenization:多模态大模型的关键基石,首个系统化综述发布

Discrete Tokenization:多模态大模型的关键基石,首个系统化综述发布

近年来,大语言模型(LLM)在语言理解、生成和泛化方面取得了突破性进展,并广泛应用于各种文本任务。随着研究的深入,人们开始关注将 LLM 的能力扩展至非文本模态,例如图像、音频、视频、图结构、推荐系统等。

来自主题: AI技术研报
6692 点击    2025-08-06 12:18
大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

大模型无法真正理解视频,GPT-4o正确率仅36%,南洋理工大团队提出新基准

视频大型语言模型(Video LLMs)的发展日新月异,它们似乎能够精准描述视频内容、准确的回答相关问题,展现出足以乱真的人类级理解力。

来自主题: AI技术研报
6818 点击    2025-08-02 12:43
ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

ACL 2025|驱动LLM强大的过程级奖励模型(PRMs)正遭遇「信任危机」?

近年来,大型语言模型(LLMs)在复杂推理任务中展现出惊人的能力,这在很大程度上得益于过程级奖励模型(PRMs)的赋能。PRMs 作为 LLMs 进行多步推理和决策的关键「幕后功臣」,负责评估推理过程的每一步,以引导模型的学习方向。

来自主题: AI技术研报
7011 点击    2025-07-28 10:49
提速79%!上交大新方法优化企业级AI流程调度 | IEEE ICDCS’ 25

提速79%!上交大新方法优化企业级AI流程调度 | IEEE ICDCS’ 25

提速79%!上交大新方法优化企业级AI流程调度 | IEEE ICDCS’ 25

复合LLM应用 (compound LLM applications) 是一种结合大语言模型(LLM)与外部工具、API、或其他LLM的高效多阶段工作流应用。

来自主题: AI技术研报
8350 点击    2025-07-25 09:51
ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

ICML 2025 | 大模型能在信息不完备的情况下问出正确的问题吗?

大语言模型(Large Language Model, LLM)在复杂推理任务中表现卓越。借助链式思维(Chain-of-Thought, CoT),LLM 能够将复杂问题分解为简单步骤,充分探索解题思路并得出正确答案。LLM 已在多个基准上展现出优异的推理能力,尤其是数学推理和代码生成。

来自主题: AI技术研报
5839 点击    2025-07-24 15:10
四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷

四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷

四款扩散大语言模型全部破防?上交&上海AI Lab发现致命安全缺陷

扩散语言模型(Diffusion-based LLMs,简称 dLLMs)以其并行解码、双向上下文建模、灵活插入masked token进行解码的特性,成为一个重要的发展方向。

来自主题: AI技术研报
8582 点击    2025-07-23 15:04
ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

多模态大模型通常是在大型预训练语言模型(LLM)的基础上扩展而来。尽管原始的 LLM 并不具备视觉理解能力,但经过多模态训练后,这些模型却能在各类视觉相关任务中展现出强大的表现。

来自主题: AI技术研报
7024 点击    2025-07-15 10:07
长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

长思维链里的推理步骤,哪些最关键?三招锁定LLM的「命门句子」

思维链里的步骤很重要,但有些步骤比其他步骤更重要,尤其是在一些比较长的思维链中。 找出这些步骤,我们就可以更深入地理解 LLM 的内部推理机制,从而提高模型的可解释性、可调试性和安全性。

来自主题: AI技术研报
6328 点击    2025-07-09 10:51
人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

人机协同筛出2600万条数据,七项基准全部SOTA,昆仑万维开源奖励模型再迎新突破

大语言模型(LLM)以生成能力强而著称,但如何能让它「听话」,是一门很深的学问。 基于人类反馈的强化学习(RLHF)就是用来解决这个问题的,其中的奖励模型 (Reward Model, RM)扮演着重要的裁判作用,它专门负责给 LLM 生成的内容打分,告诉模型什么是好,什么是不好,可以保证大模型的「三观」正确。

来自主题: AI技术研报
7475 点击    2025-07-05 12:10
周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

周志华团队新作:LLM中存在奖励模型,首次理论证明RL对LLM有效性

将大语言模型(LLMs)与复杂的人类价值观对齐,仍然是 AI 面临的一个核心挑战。当前主要的方法是基于人类反馈的强化学习(RLHF)。该流程依赖于一个通过人类偏好训练的奖励模型来对模型输出进行评分,最终对齐后的 LLM 的质量在根本上取决于该奖励模型的质量。

来自主题: AI技术研报
8590 点击    2025-07-03 10:00